AI軍備競賽?|OpenAI推GPT-5.4-Cyber攻防模型 放寬限制支援網安人員對抗威脅

    繼 Anthropic 日前高調發布具備自動挖掘零日漏洞能力的 Mythos 後,OpenAI 隨即宣布推出專為網絡安全用途打造的 GPT-5.4-Cyber 模型,並同步擴展「Trusted Access for Cyber」計劃,將工具開放給數千位經過驗證的網安專家及安全團隊使用。相較一般版本,特製模型刻意放寬部分安全限制,務求讓防守方在合法情境下擁有更高操作自由度,應對日益複雜的攻擊手法。

    據官方資料顯示,GPT-5.4-Cyber 是在 GPT-5.4 基礎上微調而成,新增多項針對攻防分析的能力,其中最受關注的是支援二進制逆向工程(binary reverse engineering)。這項功能可協助分析已編譯的可執行程式,從中識別潛在漏洞及惡意行為模式,大幅提升研究人員對惡意軟件的拆解效率,進一步將過往需要高門檻專業技能的工作工具化及自動化。

    不過,這項技術目前仍屬「有限開放」階段。OpenAI 表示 GPT-5.4-Cyber 暫只向經驗證的安全廠商、研究機構及組織逐步提供,並會根據實際使用情況持續調整。個別網安從業員若希望參與測試,需透過官方平台進行身份驗證及申請;至於企業團隊則須經由官方帳戶代表進行審批,門檻及監管程度並未完全放寬。

    合資料研究者來自客觀驗證機制

    OpenAI 強調這項計劃建基於三大原則:首先是「普及化存取」,即透過客觀驗證機制而非人手審批,讓更多合資格研究者取得工具;其次是「迭代(iterative)部署」,透過真實的使用回報持續改良模型;最後是「生態韌性」,包括資助計劃、開源貢獻及 Codex Security 等工具,支援整體防禦社群發展。這種做法明顯傾向擴大防守方能力,而非將技術嚴格封鎖於少數機構手中。

    值得留意的是今次發布正值 Anthropic 採取相反策略之際,Claude Mythos 雖被指具備可自動發現大量零日漏洞的能力,但基於潛在濫用風險,官方選擇不對外公開,並透過「Project Glasswing」計劃,限制讓數十間大型機構使用。

    OpenAI 方面表明不認為由中央機構決定誰有資格進行防禦是合理的做法,主張應讓更多經驗證的研究者取得先進工具,同時配合信任機制及問責制度管理。這種立場雖有助提升整體防禦能力,但亦引發外界對潛在濫用風險的關注。

    至於實際效能方面,OpenAI 暫時未有公開 GPT-5.4-Cyber 的詳細測試數據。不過旗下 Codex Security 平台的表現則能提供一定的參考價值。新工具可自動掃描程式碼並提出修補建議,據稱已在開源生態中識別出超過 3,000 個高危及嚴重漏洞,顯示 AI 在漏洞發掘與修復上的潛力正迅速擴大。

    資料來源:https://www.securityweek.com/openai-widens-access-to-cybersecurity-model-after-anthropics-mythos-reveal/

    #AI #Anthropic #GPT #Mythos #OpenAI

    相關文章